Warning: mkdir(): No space left on device in /var/www/tg-me/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/hackproglib/--): Failed to open stream: No such file or directory in /var/www/tg-me/post.php on line 50
Библиотека хакера | Hacking, Infosec, ИБ, информационная безопасность | Telegram Webview: hackproglib/4089 -
Telegram Group & Telegram Channel
🤖 Через год в компаниях появятся полноценные AI-сотрудники

Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.

⚠️ Какие тут риски:

📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.

📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?

📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.

❗️ Anthropic предлагает два решения для работы с AI-сотрудниками:

— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;

— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.

💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?

🔗 Источник

🐸 Библиотека хакера

#свежак
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/hackproglib/4089
Create:
Last Update:

🤖 Через год в компаниях появятся полноценные AI-сотрудники

Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.

⚠️ Какие тут риски:

📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.

📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?

📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.

❗️ Anthropic предлагает два решения для работы с AI-сотрудниками:

— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;

— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.

💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?

🔗 Источник

🐸 Библиотека хакера

#свежак

BY Библиотека хакера | Hacking, Infosec, ИБ, информационная безопасность




Share with your friend now:
tg-me.com/hackproglib/4089

View MORE
Open in Telegram


Библиотека хакера | Hacking Infosec ИБ информационная безопасность Telegram | DID YOU KNOW?

Date: |

Newly uncovered hack campaign in Telegram

The campaign, which security firm Check Point has named Rampant Kitten, comprises two main components, one for Windows and the other for Android. Rampant Kitten’s objective is to steal Telegram messages, passwords, and two-factor authentication codes sent by SMS and then also take screenshots and record sounds within earshot of an infected phone, the researchers said in a post published on Friday.

Библиотека хакера | Hacking Infosec ИБ информационная безопасность from nl


Telegram Библиотека хакера | Hacking, Infosec, ИБ, информационная безопасность
FROM USA